一開始因為不太清楚怎麼理解ML的學習脈絡,而盲目的亂看各種數學模型的基本原理,以及訓練用的參數和函式怎麼挑選等等,甚至回頭唸了一段統計,試圖從中挑選最好的方式,來規劃和實作我們的題目。
這個方式現在回頭來看有點不太好,即使念的東西都有用,而且統計的概念對於過程和結果理解也真的有所幫助,但工作實務上應該先走最有效率的路線,先求有再求好。
所以挑選題目之後,除了納入考量的參數之外,模型的選定也很重要,自己主觀認為應該先透過單一模型的練手,再追求其他模型的知識理解與精進。
如上圖,AI的領域大致如此劃分,我們從ML的部分進入,在尚未要求處理更複雜的問題,或者商業需要更精準的答案之前,可以先不要誇入Deep learning的領域。
常聽到類神經網路的部分(Deep Learning),對於我們這種小白,認真希望導入ML的考量下,其實不希望在未經歷過基礎訓練之前,就直接跨入比較進階的領域,因此這部分考慮就先不看。
基本入門,其實就從監督式學習開始,根據決定的命題,從「回歸」(連續型的數值) 和「分類」(離散型的資料),選定要套用的模型,或者嘗試不同模型,取其最好的部分往下走。
然而「回歸」和「分類」的適用性不同,不能夠拿做「分類」的模型,去做「回歸」的題目,反之亦然。
所以決定好了題目,再挑選模型來研究和學習,其實是對於我們這種有成果壓力的小白工程師比較好的選擇,根據題目是需要「回歸」還是「分類」的類型先研究,等有餘力或者題目改變了,再去了解另外一種類型的模型。
這兩個種類其實有很多種模型,以下只是粗略列出常見的選項:
常見的選用模型:
線性回歸
多項式回歸
常見的選用模型:
決策樹
支援向量機
貝葉斯